Más allá de la solicitud directa
Cuando se comienza con Modelos de Lenguaje Grandes (LLMs), los desarrolladores típicamente utilizan llamadas directas a la API (como la biblioteca Python de OpenAI) para enviar un prompt y recibir una respuesta. Aunque funcional, este enfoque se vuelve inmanejable a medida que las aplicaciones crecen.
El problema de la ausencia de estado
Los Modelos de Lenguaje Grandes son inherentemente sin estado. Cada vez que envías un mensaje, el modelo "olvida" quién eres y lo que dijiste antes. Cada interacción es una hoja en blanco. Para mantener una conversación, debes pasar manualmente toda la historia al modelo cada vez.
La solución de LangChain
LangChain introduce el ChatOpenAIenvoltorio de modelo. Esto no es solo un envoltorio por el simple hecho de tenerlo; es la base para modularidad. Al abstraer la llamada al modelo, podemos intercambiar modelos, insertar memoria y usar plantillas sin tener que reescribir toda nuestra base de código.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)